由于它们对机器学习系统部署的可靠性的影响,对抗性样本的可转移性成为严重关注的问题,因为它们发现了进入许多关键应用程序的方式。了解影响对抗性样本可转移性的因素可以帮助专家了解如何建立鲁棒和可靠的机器学习系统的明智决策。本研究的目标是通过以攻击为中心的方法提供对对抗性样本可转移性背后的机制的见解。这种攻击的视角解释了通过评估机器学习攻击的影响(在给定的输入数据集中的影响来解释对抗性样本。为实现这一目标,我们使用攻击者模型产生对抗性样本并将这些样本转移到受害者模型中。我们分析了受害者模型对抗对抗样本的行为,并概述了可能影响对抗性样本可转移性的四种因素。虽然这些因素不一定是详尽无遗的,但它们对机器学习系统的研究人员和从业者提供了有用的见解。
translated by 谷歌翻译